Световни новини без цензура!
Къде е изкуственият общ интелект? Предположението на дядо ми е толкова добро, колкото и вашето
Снимка: ft.com
Financial Times | 2024-04-13 | 07:12:21

Къде е изкуственият общ интелект? Предположението на дядо ми е толкова добро, колкото и вашето

Писателят е софтуерен анализатор

През 1946 година дядо ми, пишещ като „ Мъри Лейнстър “, разгласява научнофантастичен роман, наименуван „ Наречена логичност “ Джо ”. В него всеки има компютър („ логичност “), обвързван към световна мрежа, която прави всичко – от банкиране до вестници и видео диалози. Един ден една от тези логики, Джо, стартира да дава потребни отговори на всяко искане на всички места в мрежата: измисли неоткриваема отрова, да речем, или предложи най-хубавия метод да ограбиш банка. Настъпва суматоха – „ Проверете вашите цензурни вериги! “ — до момента в който решат какво да изключат.

Откакто мислим за компютри, мислим за основаването на „ изкуствен интелект “ и се чудим какво би означавало това. Има една остаряла смешка, че AI е всичко, което към момента не работи, тъй като откакто работи, това е просто програмен продукт. Калкулаторите вършат гигантски калкулации, а базите данни имат свръхчовешка памет, само че не могат да вършат нищо друго и не схващат какво вършат, както и съдомиялната машина схваща чиниите. Базите данни са гигантски, само че те са просто програмен продукт. Но хората имат нещо друго, както и в прочут мащаб кучетата, шимпанзетата и октоподите и доста други същества. Изследователите на AI назовават ​​това „ обща просветеност “.

Ако можем да създадем неестествен общ разсъдък или AGI, би трябвало да е явно, че това ще бъде толкоз значимо, колкото изчисленията, електричеството или може би парата. Днес печатаме микрочипове, само че какво ще стане, в случай че можете да отпечатате цифрови мозъци на равнището на човек или повече от равнището на човек, и да го извършите с милиард? Най-малкото, това би било голяма смяна в това, което бихме могли да автоматизираме, и както дядо ми и хиляди други писатели на научна фантастика показаха, това може да значи доста повече: парните машини нямаха мнение за хората.

На всеки няколко десетилетия от 1946 година насам има вълна от неспокойствие, че това може да е близо (през 1970 година пионерът на ИИ Марвин Мински твърди, че ще имаме AGI на равнище човек след три до осем години). Големите езикови модели (LLM), които започнаха преди 18 месеца, започнаха друга такава вълна. Тази седмица OpenAI и Meta алармираха, че са покрай стартирането на нови модели, които може да са в положение да разсъждават и възнамеряват. Сериозни учени в региона на изкуствения разсъдък, които преди смятаха, че AGI е десетилетия надалеч, в този момент допускат, че може да е доста по-близо.

В последна сметка, по този начин наречените „ доумъри “ настояват, че съществува действителен риск AGI да се появи непринудено от настоящите проучвания и че това може да бъде опасност за човечеството. Те приканват за незабавни дейности на държавното управление. Част от това идва от заинтригувани компании, които търсят бариери пред конкуренцията („ Това е доста рисково и ние го построяваме допустимо най-бързо, само че не позволявайте на никой различен да го прави “), само че доста от тях са откровени.

Въпреки това, за всеки специалист, който счита, че AGI може да е близо, има различен, който не го прави. Има някои, които считат, че LLMs могат да се разширят чак до AGI, а други считат, че към момента се нуждаем от незнаен брой незнайни по-нататъшни пробиви. По-важното е, че всички те биха се съгласили, че ние в действителност не знаем.

Проблемът е, че нямаме пореден научен модел за това какво в действителност съставлява общата просветеност, нито за какво хората са по-добри в нея от кучета. По същия метод не знаем за какво LLM наподобява работят толкоз добре и не знаем какъв брой могат да се подобрят. Имаме доста теории за елементи от тях, само че не знаем цялата система. Не можем да начертаем хора и ChatGPT на диаграма и да кажем по кое време единият ще доближи другия.

Наистина, самият AGI е умствен опит: какъв тип AGI в действителност бихме получили? Може да се мащабира до 100 пъти по-интелигентен от човек или може да е по-бърз, само че не и по-умен. Можем да произвеждаме единствено AGI, който не е по-интелигентен от куче. ние не знаем

Ето за какво всички диалози за AGI се обръщат към аналогии: в случай че можете да сравните това с нуклеарно разделяне, тогава знаете какво да вършиме. Но още веднъж имахме доктрина за деленето и нямаме такава доктрина за AGI. Следователно моята желана прилика е програмата Аполо. Имахме доктрина за гравитацията и доктрина за конструирането на ракети. Знаехме за какво ракетите не експлодират, за какво се издигат и какъв брой надалеч би трябвало да стигнат. Тук нямаме еквиваленти. Не знаем за какво LLM работят, какъв брой огромни могат да станат или до каква степен би трябвало да стигнат. И все пак продължаваме да ги вършим все по-големи и наподобява, че се доближават. Ще стигнат ли до там? Може би!

Какво тогава е вашето желано отношение към действителни, само че незнайни опасности? Притеснявате ли се или вдигате плещи? Кои мисловни опити предпочитате? Да предположим обаче, че решавате, че доумърите са прави: какво можете да извършите? Технологията по принцип е обществена. Моделите с отворен код се популяризират. Засега LLM се нуждаят от доста скъпи чипове (Nvidia продаде $47,5 милиарда през последната фискална година и не може да отговори на търсенето), само че от позиция на десетилетие моделите ще станат по-ефективни и чиповете ще бъдат на всички места. В последна сметка не можете да възбраните математиката. Така или другояче ще стане.

По подразбиране обаче това най-ново неспокойствие ще последва всички други талази на AI и ще стане „ просто “ повече програмен продукт и повече автоматизация. Автоматизацията постоянно е причинявала болежка от търкане, назад към лудитите. Скандалът с пощите в Обединеното кралство ни припомня, че не се нуждаете от AGI за програмен продукт, който да унищожава живота на хората. LLM ще произведат повече болежка и повече кавги, само че животът ще продължи. Поне това е отговорът, който избирам.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!